biometrik dan diskriminasi
bahaya penggunaan scan wajah untuk menentukan watak seseorang
Bayangkan kita sedang duduk di ruang tunggu wawancara kerja. Jantung berdebar. Kita sudah menyiapkan semua jawaban terbaik. Tapi, alih-alih diwawancara oleh manusia, kita diminta menatap sebuah kamera selama tiga menit. Kamera itu tidak mengecek keaslian KTP kita. Ia sedang memindai kerutan di dahi, jarak antara dua mata, dan bentuk rahang kita. Tujuannya? Untuk menebak apakah kita tipe pekerja keras, pemalas, atau bahkan calon kriminal. Kedengarannya seperti adegan film fiksi ilmiah distopia, bukan? Tapi sayangnya, ini sedang terjadi di dunia nyata. Teknologi facial recognition atau pemindai wajah kini tidak hanya dipakai untuk sekadar membuka kunci layar ponsel kita. Ia mulai dipasarkan untuk "membaca" watak dan karakter terdalam manusia. Pertanyaannya, benarkah sebuah mesin bisa mengetahui isi hati kita hanya dari susunan piksel di wajah?
Sebelum kita terburu-buru menyalahkan kecerdasan buatan, kita perlu mundur sejenak ke masa lalu. Keinginan manusia untuk menebak isi kepala orang lain dari bentuk fisiknya sebenarnya bukanlah hal yang baru. Dulu, praktik tebak-tebakan ini punya nama yang terdengar sangat ilmiah: physiognomy. Pada abad ke-19, ada seorang kriminolog asal Italia bernama Cesare Lombroso. Dia berkeliling penjara, mengukur tengkorak para narapidana, dan mencatat bentuk wajah mereka secara detail. Lombroso kemudian membuat kesimpulan yang mengubah sejarah. Ia mengklaim bahwa sifat kriminal itu bawaan lahir, dan penjahat bisa langsung dikenali dari ciri fisiknya. Misalnya, rahang yang asimetris atau tulang pipi yang terlalu menonjol dianggap sebagai tanda watak yang buruk. Sejarah kemudian mencatat bahwa teori Lombroso ini berujung pada rasisme dan diskriminasi yang mengerikan. Orang-orang dihukum atau dicurigai bukan karena perbuatan mereka, tapi karena wajah mereka "terlihat seperti penjahat". Nah, yang bikin merinding, logika usang dari abad ke-19 ini diam-diam dihidupkan kembali hari ini. Kali ini, ia dibungkus dengan algoritma rumit dan sebutan keren seperti artificial intelligence.
Teman-teman mungkin mulai berpikir, "Tapi kan AI itu murni berbasis data sains. Komputer tidak mungkin berbohong atau punya prasangka seperti manusia." Pemikiran seperti ini sangat wajar. Kita sering kali menganggap mesin sebagai entitas yang netral, objektif, dan serba tahu. Namun, mari kita bongkar fakta ilmiahnya bersama-sama. Bagaimana sebenarnya cara kerja AI saat ditugaskan memindai watak kita? Sistem ini dilatih menggunakan jutaan foto wajah yang sebelumnya sudah diberi label oleh manusia pembuatnya. Label ini sering kali mengaitkan senyum dengan kebaikan, atau alis yang berkerut dengan sifat pemarah. Di sinilah letak cacat logika terbesarnya. Ilmu psikologi dan neurosains modern, terutama penelitian dari pakar emosi Lisa Feldman Barrett, membuktikan bahwa emosi dan karakter manusia tidak universal. Seseorang bisa saja mengerutkan dahi karena ia sedang konsentrasi tinggi, bukan karena ia agresif. Ekspresi wajah adalah hasil konstruksi sosial, budaya, dan konteks, bukan sekadar respons biologis yang kaku. Jadi, jika fondasi sains yang digunakan untuk membaca wajah ini ternyata rapuh, apa yang sebenarnya sedang dinilai oleh mesin-mesin tersebut saat menatap wajah kita? Apa jadinya jika masa depan kita ditentukan oleh prediksi mesin yang salah kaprah?
Jawabannya cukup mengejutkan sekaligus membuat kita harus ekstra waspada. Mesin pemindai wajah itu sebenarnya tidak sedang membaca watak kita sama sekali. Ia sekadar mereproduksi dan mengotomatisasi prasangka dari orang-orang yang menciptakannya. Inilah yang oleh para ahli etika teknologi disebut sebagai digital phrenology atau ilmu semu digital. Saat sebuah perusahaan menggunakan biometrik untuk menyaring calon karyawan, algoritma tersebut cenderung menyingkirkan orang-orang yang wajahnya tidak sesuai dengan "standar ideal" di dalam database mereka. Praktik ini secara sistematis meminggirkan kelompok minoritas, perempuan, atau mereka yang memiliki kondisi medis tertentu seperti kelumpuhan saraf wajah. Kita sedang menyaksikan lahirnya bentuk diskriminasi baru yang jauh lebih berbahaya. Kenapa berbahaya? Karena ia berlindung di balik topeng objektivitas teknologi. Jika seseorang ditolak kerja oleh HRD yang rasis, kita bisa memprotes dan menuntutnya. Tapi bagaimana cara kita berdebat dengan algoritma berbentuk black box yang memvonis kita sebagai "tidak dapat dipercaya" hanya karena jarak pupil mata kita dianggap tidak proporsional oleh mesin? Ini bukan lagi sekadar inovasi teknologi yang canggih, melainkan pelanggaran hak asasi manusia yang disamarkan sebagai kemajuan zaman.
Teknologi memang akan selalu menawarkan janji kemudahan dan efisiensi. Namun, sebagai masyarakat yang hidup di tengah pusaran digital, kita harus berani bersikap kritis. Jangan sampai kita menyerahkan otoritas atas kemanusiaan kita kepada sepotong kode program. Watak, kejujuran, dan potensi seseorang terlalu kompleks dan terlalu indah untuk direduksi menjadi sekadar data geometris dua dimensi. Karakter kita dibentuk oleh pengalaman, empati, patah hati, dan perjuangan yang panjang, bukan oleh bentuk rahang atau lekuk hidung kita sejak lahir. Mari kita ingatkan diri kita sendiri dan orang-orang di sekitar kita, bahwa mesin boleh saja mengenali wajah kita di keramaian, tapi ia tidak akan pernah bisa membaca kedalaman jiwa kita. Kita berhak dinilai berdasarkan tindakan dan rekam jejak kita, bukan dari tebakan algoritma buta yang mewarisi dosa diskriminasi masa lalu. Mulai sekarang, setiap kali kita mendengar ada teknologi baru yang mengklaim bisa membaca karakter dari wajah, mari kita tersenyum kritis dan ingat satu hal pasti: kita jauh lebih besar, lebih rumit, dan lebih berharga dari sekadar data di atas layar.